A iniciativa de "liberdade de expressão" da Meta resulta em muito menos remoções de conteúdo

A Meta anunciou em janeiro que encerraria alguns esforços de moderação de conteúdo, flexibilizaria suas regras e daria mais ênfase ao apoio à "liberdade de expressão". As mudanças resultaram em menos remoção de postagens do Facebook e do Instagram, divulgou a empresa na quinta-feira em seu Relatório trimestral de Aplicação dos Padrões da Comunidade. A Meta afirmou que suas novas políticas ajudaram a reduzir pela metade as remoções de conteúdo errôneo nos EUA, sem expor os usuários a mais conteúdo ofensivo do que antes das mudanças.
O novo relatório , mencionado em uma atualização de uma postagem de blog de janeiro do chefe de assuntos globais da Meta, Joel Kaplan, mostra que a Meta removeu quase um terço a menos de conteúdo do Facebook e Instagram globalmente por violar suas regras de janeiro a março deste ano do que no trimestre anterior, ou cerca de 1,6 bilhão de itens em comparação com pouco menos de 2,4 bilhões, de acordo com uma análise da WIRED. Nos últimos trimestres, o total de remoções trimestrais da gigante da tecnologia havia aumentado ou permanecido estável.
No Instagram e no Facebook, a Meta relatou ter removido cerca de 50% menos postagens por violar suas regras de spam, quase 36% menos por colocar crianças em risco e quase 29% menos por conduta de ódio. As remoções aumentaram em apenas uma categoria importante de regras — conteúdo sobre suicídio e automutilação — das 11 listadas pela Meta.
A quantidade de conteúdo removido pelo Meta oscila regularmente de trimestre para trimestre, e diversos fatores podem ter contribuído para a queda nas remoções. Mas a própria empresa reconheceu que "mudanças feitas para reduzir erros de fiscalização" foram um dos motivos da grande queda.
“Em diversas áreas de políticas, observamos uma redução na quantidade de conteúdo acionado e uma redução na porcentagem de conteúdo sobre o qual tomamos medidas antes de um usuário denunciá-lo”, escreveu a empresa. “Isso se deve, em parte, às mudanças que fizemos para garantir que estamos cometendo menos erros. Também observamos uma redução correspondente na quantidade de conteúdo contestado e eventualmente restaurado.”
No início do ano, o Meta flexibilizou algumas de suas regras de conteúdo, que o CEO Mark Zuckerberg descreveu como "simplesmente fora de sintonia com o discurso dominante". As mudanças permitiram que usuários do Instagram e do Facebook empregassem linguagem que ativistas de direitos humanos consideram odiosa em relação a imigrantes ou indivíduos que se identificam como transgêneros. Por exemplo, o Meta agora permite "alegações de doença mental ou anormalidade com base em gênero ou orientação sexual".
Como parte das mudanças radicais, que foram anunciadas quando Donald Trump estava prestes a iniciar seu segundo mandato como presidente dos EUA, o Meta também parou de depender tanto de ferramentas automatizadas para identificar e remover postagens suspeitas de violações menos graves de suas regras, porque disse que elas tinham altas taxas de erro, gerando frustração nos usuários.
No primeiro trimestre deste ano, os sistemas automatizados da Meta foram responsáveis por 97,4% do conteúdo removido do Instagram sob as políticas de discurso de ódio da empresa, uma queda de apenas 1 ponto percentual em relação ao final do ano passado. (Relatos de usuários à Meta acionaram a porcentagem restante.) Mas as remoções automatizadas por bullying e assédio no Facebook caíram quase 12 pontos percentuais. Em algumas categorias, como nudez, os sistemas da Meta foram ligeiramente mais proativos em comparação com o trimestre anterior.
Os usuários podem recorrer da remoção de conteúdo, e o Meta às vezes restaura postagens que considera terem sido removidas indevidamente. Na atualização da publicação do blog de Kaplan, o Meta destacou a grande redução nas remoções errôneas. "Essa melhoria segue o compromisso que assumimos em janeiro de mudar nosso foco para a aplicação proativa de violações de alta gravidade e aprimorar nossa precisão por meio de auditorias de sistema e sinalizações adicionais", escreveu a empresa.
Alguns funcionários da Meta disseram à WIRED em janeiro que estavam preocupados que as mudanças de política pudessem levar a uma perigosa confusão no Facebook e no Instagram, transformando as plataformas em lugares cada vez mais inóspitos para os usuários conversarem e passarem o tempo.
Mas, de acordo com sua própria amostragem, a Meta estima que os usuários foram expostos a uma ou duas peças de conteúdo de ódio, em média, para cada 10.000 postagens visualizadas no primeiro trimestre, em comparação com cerca de duas a três no final do ano passado. E as plataformas da Meta continuaram crescendo — cerca de 3,43 bilhões de pessoas em março usaram pelo menos um de seus aplicativos, que incluem WhatsApp e Messenger, ante 3,35 bilhões em dezembro.
wired